We study the problem of explaining link predictions in the Knowledge Graph Embedding (KGE) models. We propose an example-based approach that exploits the latent space representation of nodes and edges in a knowledge graph to explain predictions. We evaluated the importance of identified triples by observing progressing degradation of model performance upon influential triples removal. Our experiments demonstrate that this approach to generate explanations outperforms baselines on KGE models for two publicly available datasets.
translated by 谷歌翻译
科学和工程学的一个主要挑战是设计实验,以了解一些未知数的兴趣。经典的实验设计最佳地分配了实验预算,以最大程度地提高实用性概念(例如,降低对未知数量的不确定性)。我们考虑一个丰富的设置,其中实验与{\ em Markov链}中的状态相关联,我们只能通过选择控制状态转换的{\ em策略}来选择它们。该问题从勘探学习中的探索到空间监视任务,从而捕获了重要的应用。我们提出了一种算法 - \ textsc {markov-design} - 有效地选择了其测量分配\ emph {可证明收敛到最佳One}的策略。该算法在本质上是顺序的,可以调整其过去测量所告知的策略(实验)的选择。除了我们的理论分析外,我们还展示了我们在生态监测和药理学中应用的框架。
translated by 谷歌翻译
对深度学习应用的兴趣增加,以及他们的难以检测的偏见导致需要验证和解释复杂模型。然而,目前的说明方法是有限的,只要对推理过程和预测结果的解释来说都是如此。它们通常只显示模型预测很重要的图像中的位置。缺乏与解释互动的可能性使得难以确切地验证和理解模型如何工作。使用模型时,这会产生重大风险。通过解释不考虑解释的物体的语义含义,它变得复杂。为了逃避静态说明的陷阱,我们提出了一种称为Limecraft的方法,该方法允许用户交互地选择语义一致区域,并彻底检查图像实例的预测,在许多图像特征中。几种模型的实验表明,我们的方法通过检查可能表示模型偏差的图像片的模型公平来提高模型安全性。该代码可用于:http://github.com/mi2datalab/limecraft
translated by 谷歌翻译